• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "한국 HPE"에 대한 통합 검색 내용이 102개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
HPE, 크레이 슈퍼컴퓨터로 씨유박스의 영상인식 AI 개발 지원
HPE는 인공지능(AI) 얼굴 및 영상인식 전문기업인 씨유박스(CUBOX)가 HPE 크레이 XD 슈퍼컴퓨터(HPE Cray XD Supercomputer)를 활용하여 기존 영상인식 솔루션을 훈련시키기 위한 생성형 AI 모델을 개발하고 있다고 발표했다. 씨유박스는 해당 시스템을 통해 새로운 영상 처리 기술 개발에 중점을 두고 혁신을 더욱 강화할 계획이다. 얼굴인식 기술 기반 보안 분야의 국내 기업인 씨유박스는 인천국제공항 내 자동 출입국 심사대 및 주요 정부 기관에 얼굴인식 단말기를 공급하고 있다. 씨유박스는 이번 HPE 크레이 XD 슈퍼컴퓨터의 도입을 통해 생성형 AI 모델 훈련을 최적화한다는 계획이다. 기존 공공시장(B2G)에서 더 나아가 금융 부문 AI 솔루션에 중점을 두고 B2B 시장으로 영역을 더욱 확대하고 있는 씨유박스는 다양한 B2C 서비스를 구축하는데 있어 생성형 AI 역할의 중요성을 인식하고, B2C AI 서비스 모델에 대한 투자도 이어가고 있다.  씨유박스의 시스템은 HPE 크레이 XD6500 슈퍼컴퓨터를 사용하여 구축되었다. 이 시스템은 이론상 최대 8.136 페타플롭스(petaFLOPs)의 성능을 제공하며, 전 세계 슈퍼컴퓨터 순위인 TOP500 목록에서 156위를 차지했다. HPE 크레이 XD 슈퍼컴퓨터의 향상된 컴퓨팅 성능과 첨단 기능은 씨유박스가 영상, 텍스트, 음성 및 비디오 처리의 기반이 되는 대규모 언어모델(LLM) 및 대규모 멀티모달모델(LMM)과 같은 대규모 AI 기술을 지원하는 기술 로드맵을 수립하는데 핵심 역할을 했다는 것이 HPE의 설명이다. 씨유박스의 남운성 대표는 “씨유박스는 영상인식 기술의 발전을 주도하고, AI 기반 솔루션으로 인간 상호작용을 새롭게 정의하며 보안을 발전시키는 미래를 만들어가고 있다. 새로운 인프라를 기반으로 생성형 AI 서비스를 구축하여 사업을 확장하고, 의료 서비스, 로봇 시스템 및 디지털 트윈과 같은 새로운 비즈니스에 영상 인식 솔루션을 적용하고 있다”고 전했다. 한국HPE의 김영채 대표이사는 “AI, 모델링, 시뮬레이션 등의 작업은 강력한 스케일링과 대규모 성능이 필요하다. 슈퍼컴퓨터는 이러한 컴퓨팅 및 데이터 집약적인 워크로드를 효율적으로 지원할 수 있는 이상적인 플랫폼을 제공한다. 세계에서 가장 강력한 슈퍼컴퓨터 중 하나를 구동하여 씨유박스를 지원하고, 정부 기관 및 다양한 조직의 혁신을 촉진하는 영상인식 솔루션을 발전시키는데 기여할 수 있게 되어 영광스럽게 생각한다”고 말했다.
작성일 : 2024-04-30
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11
인텔, 기업용 AI를 위한 가우디 3 및 AI 개방형 시스템 전략, 네이버와 협력 발표
인텔코리아가 4월 11일 여의도 FKI타워(전경련회관)에서 기자간담회를 열고, 미국 애리조나에서 4월 8일~9일(현지시간) 진행된 '인텔 비전 2024'에서 발표된 주요 내용들을 소개했다. 특히 올해 하반기에 새롭게 출시 예정인 기업용 AI를 위한 가우디 3에 대해 자세히 소개하는 시간을 마련했다. 한편 인텔은 네이버가 AI 서비스 개발을 위해 인텔의 가우디 2를 테스트베드로 사용하는데 협력하기로 했다고 전했다. ▲ 인텔 비전 2024을 소개한 국내 기자간담회 현장모습 먼저 인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다.  인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다. ▲ 인텔 비전 2024에서 인텔의 새로운 비전을 소개한 인텔 팻 겔싱어(Pat Gelsinger) CEO  인텔은 기업이 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다고 전했다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다고 소개했다. 인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다. 엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다. 한편 인텔코리아 나승주 상무는 인텔 비전 2024에서 발표된 내용들을 간략히 정리해 소개하는 브리핑을 진행했다. 나승주 상무는 인텔은 기업용 AI 활성화를 위해 개방형 생태계의 힘을 적극적으로 활용할 계획이라며, 가우디 3 AI 가속기는 생성형 AI를 위한 선택권을 제공한다고 설명했다. 기업용 AI는 확장 가능한 개방형 시스템이 될 전망이라고 말했다. 또한 고객 및 파트너 모멘텀으로 네이버 등과 협력하고 있다. 또한 차세대 제품 및 서비스를 위해 가우디 3 등 제품 개발에 힘쓸 계획이라고 밝혔다. ▲ 인텔코리아 나승주 상무 이번 브리핑에 앞서 진행된 네이버와의 협력에 대해서 특별 게스트로 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사)가 온라인 참석해 협력 관계애 대한 설명과 함께 질의응답에 참여했다. 네이버클라우드 이동주 박사는 AI 반도체 평가와 분석하는 과정에서 인텔 가우디 3의 성능이 뛰어나다는 것을 알게 됐다며, AI 서비스를 지원하기 위해서는 AI 개발을 좀 더 손쉽게 하기 위해서는 소프트웨어 작업들을 많이 하고 있다고 밝혔다. 단기간에 그칠 것이 아니라 국내 스타트업들이 함께 AI 협력을 기대하고 있다고 소개했다. ▲ 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사) 
작성일 : 2024-04-11
HPE, 생성형 AI용 엔드 투 엔드 AI 네이티브 포트폴리오 출시
HPE는 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 통합 AI 네이티브 포트폴리오를 새롭게 업데이트했다고 발표했다. 이번에 발표된 업데이트는 ▲HPE와 엔비디아가 공동 엔지니어링한 풀스택 생성형 AI 솔루션 ▲HPE 머신러닝 추론 소프트웨어 프리뷰 버전 ▲엔터프라이즈급 검생증강생성(RAG : Retrieval-augmented generation) 레퍼런스 아키텍처 ▲신규 엔비디아 블랙웰(NVIDIA Blackwell) 플랫폼 기반 제품 개발 지원 등을 포함한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션도 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH Grace Hopper Superchip)이 제공된다. 이 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2~3배 더욱 신속히 진행할 수 있다.     HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는 HPE 그린레이크(HPE GreenLake)를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링하여 사전 구성된 미세 조정(fine-tuning) 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 하는 이 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2(Llama 2) 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버(HPE ProLiant DL380a Server)를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet) 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU(NVIDIA BlueField-3 DPU)으로 사전 구성되어 있다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버(NeMo Retriever) 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다. AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것부터 에지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”면서, “HPE와 엔비디아는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며, 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다. 엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례 없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 말했다.
작성일 : 2024-03-26
HPE-고려대, “차세대 지능형 캠퍼스 위한 ICT 인프라 구축”
HPE는 고려대학교와 함께 차세대 지능형 캠퍼스 ICT 인프라를 구축하기 위한 업무협약(MOU)을 체결했다고 발표했다. 고려대학교는 개교 120주년인 2025년까지 더욱 고도화된 네트워크 환경을 구축하고 효율적인 ICT 환경 운영을 통해 더 선진화된 교육 환경을 제공할 수 있도록 할 뿐만 아니라, 국내외 대학의 차세대 지능형 캠퍼스 네트워크의 표준을 선도한다는 목표를 설정하였다. 이번 MOU 체결에 따라 양 기관은 학생 및 교직원을 위하여 효율적인 운영 및 더욱 향상된 학습 환경 제공을 최우선시하며 차세대 지능형 캠퍼스를 구축하기 위한 비전을 함께 수립하고, 이에 필요한 기술 및 운영 협력 방안을 모색할 계획이다. 고려대와 HPE는 첫 번째 단계로 HPE 아루바 네트워킹의 최신 시스템 교체를 통해 네트워크 사용 현황을 개선하고, 사용자 역할 기반 보안 정책을 적용한 더욱 정밀한 인증체계로 보안을 강화하며, 아루바 UXI(Aruba User Experience Insight) 센서 등의 도입을 통해 사전 장애 감지 및 원격 모니터링 기능으로 네트워크 운용 편의성을 더욱 높인다는 계획이다. 또한, 무선 네트워크를 가장 많이 사용하는 학생들의 상황을 고려해, 새로운 6GHz 대역에 액세스할 수 있는 와이파이 6E 지원 가능 AP로 전수 교체함으로써 무선 네트워크 품질도 높일 예정이다.     고려대학교의 김동원 총장은 “최근 IT 기술의 발전에 따라 더욱 효율적인 IT 환경에 대한 학생들의 기대는 더욱 높아져 왔다. 고려대학교는 그 동안 학생들이 선진화된 IT 환경에서 학업을 이어나갈 수 있도록 다양한 투자를 진행해 왔다. 이번 업무 협약은 더욱 고도화된 지능형 캠퍼스를 구축하기 위한 노력의 일환”이라면서, “HPE와 협력해 캠퍼스 내 어디서든 인텔리전트 모빌리티를 경험하고 활용할 수 있는 환경을 마련함으로써, 향후 전 세계 다른 유수 대학들의 모범이 되는 사례를 만들 것”이라고 말했다. 한국HPE의 김영채 대표이사는 “이제 최첨단 기술과 인프라는 더 수준 높은 교육 환경 조성을 위해 필수적인 요소가 되었다. HPE는 인프라에서 소프트웨어까지 아우르는 광범위한 포트폴리오를 바탕으로 앞으로 고려대학교와 함께 협력하여 스마트 캠퍼스 실현을 통해 글로벌 인재 육성에 기여하겠다. 동시에 HPE만의 기술을 기반으로 ESG를 실천하는 ICT 환경 조성도 적극 지원할 것”이라고 전했다.
작성일 : 2023-12-20
엔비디아, “델·HPE·레노버 서버에 AI용 이더넷 네트워킹 기술 통합”
엔비디아가 AI용 엔비디아 스펙트럼-X(NVIDIA Spectrum-X) 이더넷 네트워킹 기술이 델 테크놀로지스, 휴렛팩커드 엔터프라이즈, 레노버의 서버 라인업에 통합된다고 밝혔다. 엔비디아 AI 스택을 탑재한 델 테크놀로지스, HPE, 레노버의 새로운 시스템은 2024년 1분기에 출시될 예정이다. 스펙트럼-X는 생성형 AI를 위해 설계된 것이 특징으로 기존 이더넷 제품보다 1.6배 높은 AI 통신 네트워킹 성능을 구현하며, 기업이 생성형 AI 워크로드를 가속화할 수 있도록 지원한다. 3곳의 시스템 제조업체에서 선보이는 서버 시스템은 스펙트럼-X와 엔비디아 텐서 코어 GPU, 엔비디아 AI 엔터프라이즈 소프트웨어, 엔비디아 AI 워크벤치 소프트웨어를 결합했다. 이로써 기업들에게 생성형 AI로 비즈니스를 혁신할 수 있는 빌딩 블록을 제공한다. 스펙트럼-X는 네트워크 집약적인 대규모 병렬 컴퓨팅을 위해 설계된 엔비디아 블루필드-3 슈퍼NIC(BlueField-3 SuperNIC) 가속 소프트웨어를 결합했다. 엔비디아 블루필드-3 슈퍼NIC는 초당 51Tb/s의 AI용 이더넷 스위치인 스펙트럼-4의 성능을 통해 하이퍼스케일 AI 워크로드를 강화하는 새로운 등급의 네트워크 가속기이다. 이로써 스펙트럼-X는 AI 워크로드의 효율성을 높이며, 엔비디아의 인프라 컴퓨팅 플랫폼인 블루필드-3 DPU를 보완한다. 스펙트럼-X는 차세대 AI 시스템을 위한 레퍼런스 아키텍처인 엔비디아 이스라엘-1(Israel-1) 슈퍼컴퓨터를 지원한다. 이스라엘-1은 델 테크놀로지스와 협력한 것으로, 엔비디아 HGX H100 8-GPU 플랫폼 기반의 델 파워엣지(PowerEdge) XE9680 서버와 스펙트럼-4 스위치 기반의 블루필드-3 DPU와 슈퍼NIC를 사용한다.     엔비디아의 젠슨 황(Jensen Huang) CEO는 “기업이 워크로드를 처리하기 위해 데이터센터를 업그레이드하면서 생성형 AI와 가속 컴퓨팅이 세대 간 전환을 주도하고 있다. 가속 네트워킹은 엔비디아의 선도적인 서버 제조업체 파트너사들이 생성형 AI 시대로 신속하게 전환할 수 있도록 새로운 시스템 파동을 일으키는 촉매제가 될 것”이라고 말했다. 델 테크놀로지스의 마이클 델(Michael Dell) CEO는 “가속 컴퓨팅과 네트워킹은 대규모 언어 모델(LLM)과 생성형 AI 애플리케이션의 요구 사항을 충족시키는 시스템 구축에 핵심적인 역할을 한다. 델 테크놀로지스와 엔비디아의 협력을 통해 고객에게 데이터에서 인텔리전스를 빠르고 안전하게 추출하는 데 필요한 인프라와 소프트웨어를 제공하고 있다”고 말했다. HPE의 안토니오 네리(Antonio Neri) CEO는 “여러 산업에서 혁신을 주도할 생성형 AI는 다양하고 동적인 워크로드를 지원하기 위해 근본적으로 다른 아키텍처를 필요로 한다. 고객이 생성형 AI의 잠재력을 최대한 실현할 수 있도록 HPE는 엔비디아와 협력해 애플리케이션을 지원하는 데 필요한 성능, 효율성, 확장성을 갖춘 시스템을 구축하고 있다”고 말했다. 레노버의 양 위안칭(Yuanqing Yang) CEO는 “생성형 AI는 전례 없는 혁신을 실현할 수 있지만 기업 인프라에 대한 요구 사항도 전례 없이 높아졌다. 레노버는 엔비디아와 긴밀히 협력해 최신 AI 애플리케이션을 구동하는 데 필요한 네트워킹, 컴퓨팅, 소프트웨어를 갖춘 효율적이고 가속화된 시스템을 구축하고 있다”고 말했다.
작성일 : 2023-11-22
HPE, 생성형 AI를 위한 슈퍼컴퓨팅 솔루션 턴키로 제공
HPE가 생성형 AI를 위한 슈퍼컴퓨팅 솔루션을 발표했다. 이 솔루션은 대기업, 연구기관 및 정부 기관을 대상으로 한 생성형 AI에 최적화되었으며, 이를 통해 프라이빗 데이터 세트를 활용하여 인공지능(AI) 모델의 훈련과 조정을 효율적으로 가속화할 수 있다. HPE의 슈퍼컴퓨팅 솔루션은 소프트웨어 제품군을 통해 고객이 AI 모델을 훈련하고 조정하며 AI 애플리케이션을 개발하는 데 도움이 되는 기능을 한다. 더불어, 수냉식 슈퍼컴퓨터, 가속 연산, 네트워킹, 스토리지, 서비스를 포함하여 기업이 AI의 가치를 신속하게 실현할 수 있도록 종합적인 지원을 제공한다. 생성형 AI용 슈퍼컴퓨팅 솔루션의 핵심 구성요소는 AI 애플리케이션을 개발하고, 사전 구성된 모델을 맞춤화하며, 코드를 개발하고 수정하는 데 필요한 소프트웨어 도구이다. 이 소프트웨어는 HPE 크레이 슈퍼컴퓨팅 기술을 기반으로 하고 있다. HPE 크레이 슈퍼컴퓨팅 기술은 빠른 슈퍼컴퓨팅에도 사용되는 아키텍처를 기반으로 하고 있으며, 엔비디아 그레이스 호퍼 GH200 슈퍼칩(NVIDIA Grace Hopper GH200 Superchips)으로 구동된다. 이러한 기술이 적용된 솔루션을 바탕으로 기업 및 기관들은 LLM(대규모 언어 모델) 및 DLRM(딥러닝 추천 모델) 훈련과 같이 거대한 AI 워크로드에 필요한 규모와 성능을 구축할 수 있다. 또한 해당 시스템에 포함된 HPE 머신러닝 개발 환경(MLDE)을 사용함으로써 오픈소스이자 700억개 매개 변수를 가진 라마(Llama) 2 모델을 3분 이내에 미세 조정할 수 있어 고객이 가치 창출에 이르는 시간을 단축시켜준다. 이로써 엔비디아 기술과 함께 더욱 향상된 HPE 슈퍼컴퓨팅은 2~3배 향상된 성능을 제공한다. 생성형 AI를 위한 HPE의 슈퍼컴퓨팅 솔루션은 목적에 맞게 구축된 통합형 AI 네이티브 제품으로 엔드 투 엔드 기술 및 서비스를 제공한다. AI/ML 가속화를 위한 3개의 소프트웨어 툴이 포함된 제품군을 활용해 고객은 인공지능 모델을 훈련하고, 조정하며, 맞춤화된 AI 애플리케이션을 만들 수 있다. HPE 머신러닝 개발 환경은 머신러닝 소프트웨어 플랫폼으로, 인기 있는 머신 러닝 프레임워크와 통합하고 데이터 준비를 간소화해 AI 모델을 보다 빠르게 개발하고 배치할 수 있다. 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)는 보안, 안정성, 관리 및 지원 기능을 기반으로 기업과 기관이 최첨단 AI 기술을 더 적극적으로 사용할 수 있도록 돕는다. 또한, 생산용 AI의 개발 및 배치를 간소화하는 광범위한 프레임워크, 사전 훈련된 모델과 도구를 제공한다. 엑사스케일 수준의 시스템인 HPE 크레이 EX2500(HPE Cray EX2500)을 기반으로 엔비디아 GH200 그레이스 호퍼 슈퍼칩을 탑재한 이 솔루션은 가치 실현 시간을 더욱 단축할 수 있도록 단일 AI 워크로드에 노드 전체 용량을 배치할 수 있으며, 최대 수천 개의 GPU까지 확장할 수 있다. 또한, 이 시스템은 최초로 네 개의 GH200 수퍼칩 노드로 구성되어 제공된다. HPE 슬링샷 인터커넥트(HPE Slingshot Interconnect)는 엑사스케일 수준의 워크로드를 지원하도록 설계된 개방형 이더넷 기반 고성능 네트워크를 제공한다. HPE 크레이 기술을 기반으로 한 이 조정 가능한 상호연결은 매우 빠른 속도의 네트워킹을 가능하게 해 전체 시스템의 성능을 극대화한다. 생성형 AI용 슈퍼컴퓨팅 솔루션에는 더욱 간편하게 AI를 도입할 수 있도록 설정, 설치에서 라이프사이클 전반을 지원하는 글로벌 전문가를 제공하는 ‘HPE 컴플리트 케어 서비스(HPE Complete Care Services)’도 포함된다. HPE의 저스틴 호타드(Justin Hotard) 수석 부사장 겸 HPC·AI & Labs 총괄은 “세계 유수의 기업과 연구소들은 AI 모델의 훈련과 조정을 통해 연구 분야에서 혁신을 이끌어 내고 있으며, 이를 효과적이고 효율적으로 수행하기 위해서는 목적에 맞게 구축된 솔루션이 필요하다”며, “생성형 AI를 활용하기 위해서 기업 및 기관들은 지속가능한 솔루션을 사용하고, 슈퍼컴퓨터에 최적화된 성능과 규모를 기반으로 AI 모델 훈련을 지원해야 한다. HPE는 엔비디아와의 협력을 확대해 고객이 AI 모델 훈련과 성과 달성을 더욱 가속화할 수 있도록 지원하는 턴키 AI 네이티브 솔루션을 제공하게 돼 기쁘다”고 밝혔다. 엔비디아의 이안 벅(Ian Buck) 하이퍼스케일 및 HPC 부문 부사장은 “생성형 AI는 모든 산업과 과학 분야에 변화를 일으키고 있다”며, “엔비디아 GH200 그레이스 호퍼 슈퍼칩으로 구동되는 턴키 AI 훈련 및 시뮬레이션 솔루션을 위한 엔비디아와 HPE의 협력은 고객이 생성형 AI 이니셔티브의 돌파구를 마련하는데 필요한 성능을 제공할 것”이라고 말했다.
작성일 : 2023-11-20
HPE, 최신 슈퍼컴퓨팅 및 AI 전략 소개
한국HPE가 각각 고객, 파트너 및 개발자를 대상으로 ‘데이터 사이언스 세미나’ 및 ‘HPE ForCAST 2023’ 행사를 열고, AI의 핵심요소인 슈퍼컴퓨팅과 복잡하고 어려운 개발과정을 혁신할 수 있는 머신러닝(ML) 솔루션 활용 전략을 소개했다. 이번 행사에서는 HPE 글로벌 데이터 및 AI 부문 CTO 겸 차세대 테크 이노베이션 부사장인 소린 체란(Sorin Cheran) 박사, 리드하브 마하얀(Ridhav Mhajan), HPE APAC 에즈메랄 헤드 겸 CTO, 조던 나노스(Jordan Nanos) HPE 북아메리카 CTO실 마스터 테크놀로지스트 등 여러 주요 글로벌 임원도 참여하여 HPE의 AI 전략과 고객의 관점, 생성형 AI를 위해 HPE가 고객을 지원하는 법, AI 사용자를 위한 플랫폼 구축 방법을 제시했다. 주요 세션에서 HPE는 향후 로봇과 생성형 AI의 상호작용이 증가함에 따라 견고한 로보틱스 및 거버넌스의 중요성이 증가할 것이라고 전망했다. 또한, 이제 고객이 AI 및 ML 개발에 있어 어느 단계에 있고 그들의 요구사항이 무엇인지에 따라 이를 실현시켜 줄 수 있는 모델과 서비스를 제공하는 것이 무엇보다 중요하며 HPE는 위한 준비가 되어있음을 강조했다. HPE는 기업들이 진행하는 머신러닝 프로젝트에는 주로 언어, 비주얼 등 특정 영역에 집중한 프로젝트와 보안, 거버넌스에 집중하며 다양한 종류의 데이터와 모델을 활용하는 더 넓은 영역의 프로젝트 두 가지 유형이 있다고 설명했다.     HPE는 각각의 프로젝트를 위한 솔루션도 소개했다. HPE 머신러닝 디벨롭먼트 인바이런먼트(HPE MLDE)는 AI 모델 개발 관련 복잡성 및 비용 부담을 제거함으로써, 엔지니어 및 데이터 사이언티스트들이 더욱 정확한 AI 모델을 개발을 위한 혁신에 집중하고 가속화할 수 있도록 지원한다. 그리고 HPE 머신러닝 데이터 매니지먼트(HPE MLDM) 소프트웨어는 데이터 엔지니어들이 복잡한 데이터 파이프라인을 자동화하고 데이터 계보 관리(data lineage)를 할 수 있도록 지원한다. 다양한 결과를 재생산할 수 있고, 확장 가능하며, 클라우드나 온프레미스 환경 내 모두 구동 가능하여 데이터처리 및 머신러닝 워크로드에 최적화되어 있다. 또한, HPE 에즈메랄 유니파이드 애널리틱스(HPE Ezmeral Unified Analytics)는 하이브리드 멀티 클라우드 환경에서 예측가능한 SaaS(서비스형 소프트웨어) 솔루션을 제공함으로써 기업들이 다양한 규모로 전 세계의 데이터를 활용해 애널리틱스를 진행할 수 있도록 고안되었다. 한편, HPE는 지난 6월 대규모 언어 모델(LLM)용 HPE 그린레이크를 출시한 바 있다. LLM용 HPE 그린레이크는 HPE의 AI 소프트웨어와 슈퍼컴퓨팅 역량을 통합해주고 기업들이 멀티 테넌트 슈퍼컴퓨팅 클라우드 서비스를 온디맨드로 이용할 수 있게 해주는 슈퍼컴퓨팅 플랫폼이다. 이 플랫폼을 활용해 기업은 자체적으로 대규모 AI 모델을 훈련(train), 조정(fine-tune) 및 배포(deployment)할 수 있다. 또한, 이 서비스는 독일 AI 스타트업 알레프 알파(Aleph Alpha)와 파트너십을 통해 텍스트와 이미지 처리 및 분석을 지원하고 있다. 한국HPE의 김영채 대표이사는 “AI는 이전 시대와는 또다른 새로운 도전의 장이라고 할 수 있기에 남다른 각오를 갖고 사업에 임하고 있으며 대규모 언어 모델의 수요는 지속될 것으로 예상한다. HPE는 HPC 및 AI 사업을 위하여 지난 크레이(Cray) 인수로 시작해 기반을 다졌고, 그 이후로도 사업의 확장 및 개발을 위해 노력해왔다. 그동안 HPE가 직접 경험해오며 쌓아온 인사이트를 개발자 및 파트너와 공유하며 함께 AI 혁신을 이룰 수 있는 길을 열겠다”고 말했다.
작성일 : 2023-10-10
엔비디아, 생성형 AI 가속화 돕는 엔터프라이즈용 서버 솔루션 출시
엔비디아가 세계 주요 시스템 제조업체들이 별도로 발표된 VM웨어 프라이빗 AI 파운데이션(VMware Private AI Foundation)을 지원하는 엔비디아 AI 레디 서버(NVIDIA AI-ready)를 제공할 예정이라고 발표했다. 이 서버는 기업이 독자적인 비즈니스 데이터를 사용해 생성형 AI 애플리케이션을 맞춤화하고 배포할 수 있도록 지원한다. 엔비디아 AI 레디 서버에는 엔비디아 L40S GPU, 엔비디아 블루필드-3 (BlueField-3) DPU, 엔비디아 AI 엔터프라이즈 소프트웨어가 탑재된다. 이를 통해 기업들은 생성형 AI 기반 모델을 미세 조정하고 지능형 챗봇, 검색, 요약 도구 등과 같은 생성형 AI 애플리케이션을 구현할 수 있다. 엔비디아 AI 레디 서버는 생성형 AI를 도입하려는 여러 업계에 풀 스택 가속 인프라와 소프트웨어를 제공하도록 설계됐다. 여기에는 신약 개발, 유통 제품 설명, 지능형 가상 어시스턴트, 제조 시뮬레이션 등 광범위한 애플리케이션이 해당된다.     이 서버에는 엔비디아 AI 플랫폼 운영 체제인 엔비디아 AI 엔터프라이즈가 탑재된다. 이 소프트웨어는 LLM을 위한 엔비디아 네모(NeMo), 시뮬레이션을 위한 엔비디아 모듈러스(Modulus), 데이터 사이언스를 위한 엔비디아 래피즈(RAPIDS), 프로덕션 AI를 위한 엔비디아 트리톤 추론 서버(Triton Inference Server)  등 100개 이상의 프레임워크, 사전 훈련된 모델, 툴킷, 소프트웨어에 대한 프로덕션 지원과 보안을 제공한다. L40S GPU는 수십억 개의 매개변수가 있는 복잡한 AI 워크로드를 처리하도록 설계됐으며, 4세대 텐서 코어와 FP8 트랜스포머 엔진이 포함된다. 이를 통해 1.45페타플롭스 이상의 텐서 처리 성능과 엔비디아 A100 텐서 코어 GPU에 비해 최대 1.7배의 훈련 성능을 제공한다. 지능형 챗봇, 어시스턴트, 검색, 요약 등과 같은 생성형 AI 애플리케이션의 경우, 엔비디아 L40S는 엔비디아 A100 GPU에 비해 최대 1.2배 더 뛰어난 생성형 AI 추론 성능을 제공한다. 엔비디아 블루필드 DPU를 통합하면 가상화, 네트워킹, 스토리지, 보안과 기타 클라우드 기반 AI 서비스의 엄청난 컴퓨팅 부하를 가속화, 오프로드 또는 격리해 속도를 더욱 높일 수 있다. 또한, 엔비디아 커넥트X-7 스마트NIC(ConnectX-7 SmartNIC)는 고급 하드웨어 오프로드와 초저지연을 제공해 데이터 집약적인 생성형 AI 워크로드를 위한 높은 확장성을 제공한다. L40S GPU와 블루필드 DPU가 탑재된 엔비디아 AI 레디 서버는 델 테크놀로지스, 휴렛팩커드 엔터프라이즈(HPE), 레노버 등 글로벌 시스템 제조업체를 통해 연말 출시를 앞두고 있으며, 향후 몇 달 내 클라우드 서비스 제공업체를 통해 인스턴스를 이용할 수 있게 되어 엔터프라이즈용 생성형 AI 가속화에 활용될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 "새로운 컴퓨팅 시대가 시작됐다. 모든 산업 분야의 기업들이 생성형 AI를 도입하기 위해 경쟁하고 있다. 엔비디아는 세계 최고의 소프트웨어와 시스템 파트너 에코시스템을 통해 전 세계 기업들에게 생성형 AI를 제공하고 있다"고 말했다.
작성일 : 2023-08-23
HPE, 대규모 언어모델을 위한 AI 클라우드 공개
HPE가 자사의 연례행사인 'HPE 디스커버 라스베가스 2023'에서 대규모 언어모델을 위한 제품 ‘LLM용 HPE 그린레이크 (HPE GreenLake for LLM)’을 공개하면서, HPE 그린레이크의 포트폴리오 확장 및 AI 클라우드 시장 진출을 밝혔다. 이번에 공개된 대규모 언어모델(LLM)을 위한 HPE 그린레이크는 AI 소프트웨어와 고성능의 슈퍼컴퓨터를 함께 활용할 수 있는 지속가능한 슈퍼컴퓨팅 플랫폼이다. HPE는 스타트업부터 포춘 선정 500대 기업에 이르기까지 다양한 규모의 기업들이 온디맨드 형식으로 멀티 태넌트 슈퍼컴퓨팅 클라우드 서비스를 이용할 수 있도록 지원한다는 계획이다. HPE LLM용 그린레이크는 알레프 알파(Aleph Alpha)의 사전 훈련된 대규모 언어모델인 루미너스(Luminous)에 대한 접근도 제공하며, 이 모델은 영어, 프랑스어, 독일어, 이탈리아어 및 스페인어 등 다양한 언어로 서비스된다. 또한 고객들은 이를 활용해 자사 데이터를 활용하고 맞춤형 모델을 훈련 및 미세조정(Fine-tune)하며 예측가능한 정보를 바탕으로 실시간 인사이트를 도출해 낼 수 있다. 기업들은 이 서비스를 통해 다양한 시장에 맞게 AI 애플리케이션을 구축하고 워크플로에 통합시켜 비즈니스 및 연구를 기반으로 한 가치를 창출할 수 있다. HPE LLM용 그린레이크는 HPE 크레이 XD 슈퍼컴퓨터(HPE Cray XD supercomputers)에서 구동되며 온디맨드로 이용 가능하다. 이를 통해 고객들은 비용이 높고 관리가 복잡하며 전문 기술이 필요한 슈퍼컴퓨터를 자체적으로 구매하거나 관리할 필요가 없어졌다. 이 서비스는 HPE 크레이 프로그래밍 환경(HPE Cray Programming Environment)을 통해 제공되는데 HPE 크레이 프로그래밍 환경은 소프트웨어 제품군에 통합된 서비스로 HPC 및 AI 애플리케이션을 최적화해주며 개발, 포팅(porting), 디버깅 및 코드 조정을 위한 툴셋을 제공한다. 이에 더해, 슈퍼컴퓨팅 플랫폼은 HPE의 AI/ML 소프트웨어를 제공한다. 그 중 HPE 머신러닝 개발 환경(HPE Machine Learning Development Environment)은 대규모 모델을 빠르게 훈련하는 것을 돕고, HPE 머신러닝 데이터 매니지먼트 소프트웨어(HPE Machine Learning Data Management Software)는 재현가능한(reproducible) AI 역량을 바탕으로 데이터를 통합, 추적 및 검사함으로써 믿을 수 있고 정확한 모델을 생성할 수 있도록 한다. HPE의 LLM용 그린레이크는 기업이 자체적으로 대규모 AI 모델을 훈련, 조정 및 배포할 수 있게 한다. HPE는 고객들이 업계에서 검증된 LLM을 바로 사용할 수 있도록 독일 AI 스타트업 파트너 알레프 알파(Aleph Alpha)와 협력해 LLM용 HPE 그린레이크를 제공할 계획이다. HPE는 "기업들이 텍스트와 이미지 처리 및 분석이 필요한 사용사례 개발에 박차를 가하도록 지원할 것"이라고 전했다. 또한, HPE는 향후 기후 모델, 헬스케어, 생명과학, 금융 서비스, 제조 및 운송에 이르기까지 다양한 업계 및 도메인에 특화된 AI 애플리케이션 시리즈를 출시할 예정이다. HPE의 LLM 그린레이크는 컴퓨팅 역량을 최대로 활용해 대규모 단일 AI 트레이닝 및 시뮬레이션 워크로드를 처리할 수 있도록 특별히 제작된 AI 네이티브 아키텍처에서 구동된다. 이 제품은 수백에서 수천 개의 CPU 또는 GPU에서 구동되던 AI 및 HPC 업무를 한 번에 지원할 수 있다. HPE는 이러한 역량이 AI를 훈련하고 더욱 정확한 모델을 생성하는데 있어 더욱 효과적이며, 신뢰할 수 있고 효율적이라는 점을 내세운다. 또한, 기업들이 이를 통해 개념검증(POC) 단계에서 생산에 이르기까지 모든 과정을 더욱 가속화하여 기업이 직면한 문제를 더욱 빠르게 처리할 수 있게 될 것으로 기대했다. 한편, HPE는 LLM을 훈련하고 조정할 수 있는 HPE LLM용 그린레이크에 더해 AI 추론 컴퓨팅 솔루션도 공개했다. 이 시스템은 에지의 컴퓨터 비전이나 생성형 시각적 AI 및 자연어 처리 AI 등 에지와 데이터센터 내에 있는 워크로드를 타기팅하도록 조정되었다. 해당 제품은 HPE 프로라이언트 Gen11 서버에 기반을 두고 있다. HPE 프로라이언트 Gen11은 한층 더 발전된 GPU 가속화 역량을 통합할 수 있도록 맞춤 설계되었으며 이는 AI 성능에 핵심적이다. HPE 프로라이언트 DL380a와 DL 380 Gen11서버는 이전 모델보다 5배 더 뛰어난 AI 추론 역량을 지원한다. HPE는 이 추론 컴퓨팅 솔루션이 유통, 숙박, 제조, 미디어 및 엔터테인먼트에 이르기까지 다양한 산업들의 가치창출을 더욱 가속화할 수 있도록 지원할 수 있을 것으로 보고 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 "오늘날 우리는 웹, 모바일 및 클라우드만큼 혁신적인 AI 시장의 세대 변화를 마주하고 있다. HPE의 입증된 지속가능한 슈퍼컴퓨팅에서 구동되는 LLM 등 다양한 AI 애플리케이션을 제공함으로써, HPE는 자금력이 풍부한 정부출연연구소나 글로벌 클라우드 대기업의 전유물이었던 AI를 HPE의 검증된 슈퍼컴퓨터를 통해 모두가 접근할 수 있는 영역으로 만들고 있다"면서, "이제 많은 기관과 기업들은 온디맨드 클라우드 서비스를 통해 AI 모델을 훈련, 조정 및 배포함으로써, AI를 활용해 혁신을 일으키고 시장에 변화를 꾀하고 돌파구를 찾을 수 있게 되었다”고 전했다.
작성일 : 2023-06-22